Considera dos variables \(X\) y \(Y\) con distribución exponencial donde una tiene valor esperado que sea el doble del valor esperado de la otra (tú decides el parámetro).
Escoge al menos 5 tipos de cópulas para modelar la dependencia entre ellas, para cada cópula escoge parámetros que reflejen una dependencia negativa y una dependencia positiva (en total tendrás 10 modelos). Para cada uno de los 10 modelos:
Muestra la función de distribución conjunta de \(X\) y \(Y\) (la fórmula).
Grafica la función de densidad conjunta de \(X\) y \(Y\).
Varianza de \(X\), \(Y\) y \(X + Y\).
Desviación estándar de \(X\), \(Y\) y \(X + Y\).
Cuantil al 95% de \(X\), \(Y\) y \(X + Y\).
Valor esperado condicional de la cola al 95% de \(X\), \(Y\) y \(X + Y\).
Repite el inciso anterior; pero ahora considera que \(X\) y \(Y\) tienen distribución pareto donde una tiene valor esperado que sea el doble del valor esperado de la otra (tú decides los parámetros).
2 Solución
2.1 Caso Exponencial
Tenemos las siguientes variables aleatorias:
\[X\sim \textbf{Exp}(\lambda)\]
\[Y\sim \textbf{Exp}(2\lambda)\]
donde \(F_{x}(x)=1-e^{-\lambda x}\) y \(F_{y}(y)=1-e^{-2\lambda y}\)
Código
library(copula)library(lattice)source("codigo.R")# Exponential distribution for both marginalslambda <-1# Parameters for the marginals# You can adjust these parameters as neededparams1 <- lambda # Rate for the first exponential distributionparams2 <-2*lambda # Rate for the second exponential distribution
donde \(\Phi_{2}\) es la función de distribución conjunta de una distribución normal bivariada con media cero y varianza uno y correlación \(\rho\) (esta determinará la relación negativa o positiva de las variables); y \(\Phi\) es la función de distribución de una distribución normal estándar.
library(copula)rho =.7# Definir cópula gaussianamyCopulaP1 <-normalCopula(rho, dim =2)myCopulaN1 <-normalCopula(-rho, dim =2)grafCopula1 <-graficaDensidadCopulas(myCopulaP1,myCopulaN1)
2.1.1.2.1 Caso Positivo
Código
grafCopula1[[1]]
2.1.1.2.2 Caso Negativo
Código
grafCopula1[[2]]
2.1.1.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
donde \(\textbf{t}_{\nu}(;\rho)\) es la función de distribución conjunta de una distribución t-Student bivariada estandarizada y con correlación \(\rho\) (esta determinará la relación negativa o positiva de las variables); y \(\textbf{t}_{\nu}\) es la función de distribución de una distribución univaria t-Student.
# Parámetros de la cópula y las distribuciones marginalesrho =0.7df =4# Grados de libertad para la cópula t de Student# Definir cópulas t de StudentmyCopulaP2 <-tCopula(rho, dim =2, df = df)myCopulaN2 <-tCopula(-rho, dim =2, df = df)grafCopula2 <-graficaDensidadCopulas(myCopulaP2,myCopulaN2)
2.1.2.2.1 Caso Positivo
Código
# Mostrar los gráficosgrafCopula2[[1]]
2.1.2.2.2 Caso Negativo
Código
# Mostrar los gráficosgrafCopula2[[2]]
2.1.2.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
# Definir parámetros de la cópula de Claytontheta1 =2# dependencia positivatheta2 =-.9# dependencia negativa# Definir cópulas de ClaytonmyCopulaP3 <-claytonCopula(theta1, dim =2)myCopulaN3 <-claytonCopula(theta2, dim =2)grafCopula3 <-graficaDensidadCopulas(myCopulaP3,myCopulaN3)
2.1.3.2.1 Caso Positivo
Código
grafCopula3[[1]]
2.1.3.2.2 Caso Negativo
Código
grafCopula3[[2]]
2.1.3.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
theta1 =10# dependencia positivatheta2 =-15# dependencia negativa# Definir cópulas de ClaytonmyCopulaP4 <-frankCopula(theta1, dim =2)myCopulaN4 <-frankCopula(theta2, dim =2)grafCopula4 <-graficaDensidadCopulas(myCopulaP4,myCopulaN4)
2.1.4.2.1 Caso Positivo
Código
grafCopula4[[1]]
2.1.4.2.2 Caso Negativo
Código
grafCopula4[[2]]
2.1.4.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
theta1 =1# dependencia positivatheta2 =-1# dependencia negativa# Definir cópulas de ClaytonmyCopulaP5 <-amhCopula(theta1, dim =2)myCopulaN5 <-amhCopula(theta2, dim =2)grafCopula5 <-graficaDensidadCopulas(myCopulaP5,myCopulaN5)
2.1.5.2.1 Caso Positivo
Código
grafCopula5[[1]]
2.1.5.2.2 Caso Negativo
Código
grafCopula5[[2]]
2.1.5.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
rho =.9# Definir cópula gaussianamyCopulaP1 <-normalCopula(rho, dim =2)myCopulaN1 <-normalCopula(-rho, dim =2)pgrafCopula1 <-graficaDensidadCopulas2(myCopulaP1,myCopulaN1)
2.2.1.2.1 Caso Positivo
Código
pgrafCopula1[[1]]
2.2.1.2.2 Caso Negativo
Código
pgrafCopula1[[2]]
2.2.1.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
donde \(\textbf{t}_{\nu}(;\rho)\) es la función de distribución conjunta de una distribución t-Student bivariada estandarizada y con correlación \(\rho\) (esta determinará la relación negativa o positiva de las variables); y \(\textbf{t}_{\nu}\) es la función de distribución de una distribución univaria t-Student.
# Parámetros de la cópula y las distribuciones marginalesrho =0.9df =4# Definir cópulas t de StudentmyCopulaP2 <-tCopula(rho, dim =2, df = df)myCopulaN2 <-tCopula(-rho, dim =2, df = df)pgrafCopula2 <-graficaDensidadCopulas2(myCopulaP2,myCopulaN2)
2.2.2.2.1 Caso Positivo
Código
pgrafCopula2[[1]]
2.2.2.2.2 Caso Negativo
Código
pgrafCopula2[[2]]
2.2.2.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
# Definir parámetros de la cópula de Claytontheta1 =2# dependencia positivatheta2 =-.9# dependencia negativa# Definir cópulas de ClaytonmyCopulaP3 <-claytonCopula(theta1, dim =2)myCopulaN3 <-claytonCopula(theta2, dim =2)pgrafCopula3 <-graficaDensidadCopulas2(myCopulaP3,myCopulaN3)
2.2.3.2.1 Caso Positivo
Código
pgrafCopula3[[1]]
2.2.3.2.2 Caso Negativo
Código
pgrafCopula3[[2]]
2.2.3.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
theta1 =10# dependencia positivatheta2 =-15# dependencia negativa# Definir cópulas de ClaytonmyCopulaP4 <-frankCopula(theta1, dim =2)myCopulaN4 <-frankCopula(theta2, dim =2)pgrafCopula4 <-graficaDensidadCopulas2(myCopulaP4,myCopulaN4)
2.2.4.2.1 Caso Positivo
Código
pgrafCopula4[[1]]
2.2.4.2.2 Caso Negativo
Código
pgrafCopula4[[2]]
2.2.4.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.
theta1 =1# dependencia positivatheta2 =-1# dependencia negativa# Definir cópulas de ClaytonmyCopulaP5 <-amhCopula(theta1, dim =2)myCopulaN5 <-amhCopula(theta2, dim =2)pgrafCopula5 <-graficaDensidadCopulas2(myCopulaP5,myCopulaN5)
2.2.5.2.1 Caso Positivo
Código
pgrafCopula5[[1]]
2.2.5.2.2 Caso Negativo
Código
pgrafCopula5[[2]]
2.2.5.3 Resultados
Para obtener los resultados de las estadísticas pedidas se generó una muestra de 1000000 observaciones de la cópula y se calcularon las estadísticas para cada una de las variables aleatorias \(X\) y \(Y\) y para la suma de ambas \(X+Y\). Cabe resaltar que como sí conocemos muy bien las variables aleatorias \(X\) y \(Y\), las estadísticas de estas fueron calculadas de manera analítica.